24 research outputs found

    On some orthogonalization schemes in Tensor Train format

    Full text link
    In the framework of tensor spaces, we consider orthogonalization kernels to generate an orthogonal basis of a tensor subspace from a set of linearly independent tensors. In particular, we experimentally study the loss of orthogonality of six orthogonalization methods, namely Classical and Modified Gram-Schmidt with (CGS2, MGS2) and without (CGS, MGS) re-orthogonalization, the Gram approach, and the Householder transformation. To overcome the curse of dimensionality, we represent tensors with a low-rank approximation using the Tensor Train (TT) formalism. In addition, we introduce recompression steps in the standard algorithm outline through the TT-rounding method at a prescribed accuracy. After describing the structure and properties of the algorithms, we illustrate their loss of orthogonality with numerical experiments. The theoretical bounds from the classical matrix computation round-off analysis, obtained over several decades, seem to be maintained, with the unit round-off replaced by the TT-rounding accuracy. The computational analysis for each orthogonalization kernel in terms of the memory requirements and the computational complexity measured as a function of the number of TT-rounding, which happens to be the most computationally expensive operation, completes the study

    Un algorithme GMRES robuste au format tensor train

    Get PDF
    We consider the solution of linear systems with tensor product structure using a GMRES algorithm. In order to cope with the computational complexity in large dimension both in terms of floating point operations and memory requirement, our algorithm is based on low-rank tensor representation, namely the Tensor Train format. In a backward error analysis framework, we show how the tensor approximation affects the accuracy of the computed solution. With the bacwkward perspective, we investigate the situations where the (d+1)(d+1)-dimensional problem to be solved results from the concatenation of a sequence of dd-dimensional problems (like parametric linear operator or parametric right-hand side problems), we provide backward error bounds to relate the accuracy of the (d+1)(d+1)-dimensional computed solution with the numerical quality of the sequence of dd-dimensional solutions that can be extracted form it. This enables to prescribe convergence threshold when solving the (d+1)(d+1)-dimensional problem that ensures the numerical quality of the dd-dimensional solutions that will be extracted from the (d+1)(d+1)-dimensional computed solution once the solver has converged. The above mentioned features are illustrated on a set of academic examples of varying dimensions and sizes.Nous considĂ©rons la rĂ©solution de systĂšmes linĂ©aires avec une structure de produit tensoriel en utilisant un algorithme GMRES. Afin de faire face Ă  la complexitĂ© de calcul en grande dimension, Ă  la fois en termes d'opĂ©rations en virgule flottante et d'exigences de mĂ©moire, notre algorithme est basĂ© sur une reprĂ©sentation tensorielle Ă  faible rang, Ă  savoir le format Tensor Train. Dans un cadre d'analyse d'erreur inverse, nous montrons comment l'approximation tensorielle affecte la prĂ©cision de la solution calculĂ©e. Dans une perspective d'erreur inverse, nous Ă©tudions les situations oĂč le problĂšme de dimension (d+1)(d+1) Ă  rĂ©soudre rĂ©sulte de la concatĂ©nation d'une sĂ©quence de problĂšmes de dimension dd (comme les problĂšmes d'opĂ©rateurs linĂ©aires paramĂ©triques ou de second membres paramĂ©triques), nous fournissons des bornes d'erreur inverse pour relier la prĂ©cision de la solution calculĂ©e de dimension (d+1)(d+1) Ă  la qualitĂ© numĂ©rique de la sĂ©quence de solutions de dimension dd qui peut ĂȘtre extraite de celle-ci. Cela permet de prescrire un seuil de convergence lors de la rĂ©solution du problĂšme Ă  (d+1)(d+1) dimensions qui garantit la qualitĂ© numĂ©rique des solutions Ă  dd dimensions qui seront extraites de la solution calculĂ©eenĂ  (d+1)(d+1) dimensions une fois que le solveur aura convergĂ©. Les caractĂ©ristiques mentionnĂ©es ci-dessus sont illustrĂ©es sur un ensemble d'exemples acadĂ©miques de dimensions et de tailles variables

    Extension de l'analyse des correspondances à des donnéees multi-dimensionnelles : un point de vue géométrique

    Get PDF
    This paper presents an extension of Correspondence Analysis (CA) to tensors through High Order Singular Value Decomposition (HOSVD) from a geometric viewpoint. Correspondence analysis is a well-known tool, developed from principal component analysis, for studying contingency tables. Different algebraic extensions of CA to multi-way tables have been proposed over the years, nevertheless neglecting its geometric meaning. Relying on the Tucker model and the HOSVD, we propose a direct way to associate with each tensor mode a point cloud. We prove that the point clouds are related to each other. Specifically using the CA metrics we show that the barycentric relation is still true in the tensor framework. Finally two data sets are used to underline the advantages and the drawbacks of our strategy with respect to the classical matrix approaches.Ce document prĂ©sente une extension de l'analyse des correspondances aux tenseurs par la dĂ©composition en valeurs singuliĂšres d'ordre Ă©levĂ© (HOSVD) d'un point de vue gĂ©omĂ©trique. L'analyse des correspondances est un outil bien connu, dĂ©veloppĂ© Ă  partir de l'analyse en composantes principales, pour Ă©tudier les tables de contingence. DiffĂ©rentes extensions algĂ©briques de l'analyse des correspondances aux tables Ă  voies multiples ont Ă©tĂ© proposĂ©es au fil des ans. En nous appuyant sur le modĂšle de Tucker et la HOSVD, nous proposons d'associer Ă  chaque mode d'un tenseur un nuage de points. Nous Ă©tablissons un lien entre les cordonnĂ©es de ces diffĂ©rents nuages. Une telle relation est classique en Analyse Factorielle des Correspondances (AFC) pour justifier la projection simultanĂ©e des profils lignes et profils colonnes d'une table de contingence (d'oĂč le nom de correspondance). Nous Ă©tendons une telle relation barycentrique aux liens entre les nuages de points associĂ©s aux diffĂ©rents modes de l'Analyse Factorielle des Correspondances Multiple d'un tenseur, construite via la HOSVD avec les mĂ©triques de l'AFC

    High order singular value decomposition per la stima della biodiversitĂ  vegetale

    Get PDF
    We propose a new method to estimate plant biodiversity with RĂ©nyi and Rao indexes through the so called High Order Singular Value Decomposition (HOSVD) of tensors. Starting from NASA multispectral images we evaluate biodiversity and we compare original biodiversity estimates with those realised via the HOSVD compression methods for big data. Our strategy turns out to be extremely powerful in terms of storage memory and precision of the outcome. The obtained results are so promising that we can support the efficiency of our method in the ecological framework

    Les variantes rétro-stables de GMRES en précision variable

    Get PDF
    In the context where the representation of the data is decoupled from the arithmetic used to process them, we investigate the backward stability of two backward-stable implementations of the GMRES method, namely the so-calledModified Gram-Schmidt (MGS) and the Householder variants. Considering data may be compressed to alleviate the memory footprint, we are interested in the situation where the leading part of the rounding error is related to the datarepresentation. When the data representation of vectors introduces componentwise perturbations, we show that the existing backward stability analyses of MGS-GMRES and Householder-GMRES still apply. We illustrate this backward stability property in a practical context where an agnostic lossy compressor is employed and enables the reduction of the memory requirement to store the orthonormal Arnoldi basis or the Householder reflectors. Although technical arguments of the theoretical backward stability proofs do not readily apply to the situation where only the normwise relative perturbations of the vector storage can be controlled, we show experimentally that the backward stability is maintained; that is, the attainable normwise backward error is of the same order as the normwise perturbations induced by the data storage. We illustrate it with numerical experiments in two practical different contexts. The first one corresponds to the use of an agnostic compressor where vector compression is controlled normwise. The second one arises in the solution of tensor linear systems, where low-rank tensor approximations based on Tensor-Train is considered to tackle the curse of dimensionality.Dans le contexte oĂč la reprĂ©sentation des donnĂ©es est dĂ©couplĂ©e de l’arithmĂ©tique utilisĂ©e pour les traiter, nous Ă©tudions la stabilitĂ© inverse des deux implĂ©mentations stables de la mĂ©thode GMRES, Ă  savoir la variante dite Modified Gram-Schmidt (MGS) et la variante Householder. ConsidĂ©rant que les donnĂ©es peuvent ĂȘtre compressĂ©es pour rĂ©duire l’empreinte mĂ©moire, nous nous intĂ©ressons Ă  la situation oĂč la partie principale de l’erreur d’arrondi est liĂ©e Ă  la reprĂ©sentation des donnĂ©es. Lorsque la reprĂ©sentation des donnĂ©es des vecteurs introduit des perturbations par composantes, les analyses de stabilitĂ© inverse existantes de MGS-GMRES [27] et Householder-GMRES [15] restent applicables. Nous illustrons cette propriĂ©tĂ© de stabilitĂ© dans un contexte pratique pratique oĂč un compresseur agnostique Ă  perte est utilisĂ© et permet de rĂ©duire la mĂ©moire nĂ©cessaire pour stocker la base orthonormale d’Arnoldi ou les rĂ©flecteurs de Householder. Bien que les arguments techniques des preuves thĂ©oriques de de stabilitĂ© inversene s’appliquent pas facilement Ă  la situation oĂč seules les perturbations relatives en norme sont utilisĂ©es, nous montrons expĂ©rimentalement que la stabilitĂ© inverse est maintenue ; c’est-Ă -dire que l’erreur inverse atteignable est du mĂȘme ordre que les perturbations normalisĂ©es induites par le stockage des donnĂ©es. Nous rapportons des expĂ©riences numĂ©riques dans deux contextes pratiques diffĂ©rents. Le premier correspond Ă  l’utilisation d’un compresseur agnostique. Le deuxiĂšme se prĂ©sente dans la rĂ©solution de systĂšmes linĂ©aires tensoriels, dĂ©finis sur un produit tensoriel d’espaces linĂ©aires, oĂč les approximations tensorielles Ă  faible rang basĂ©es sur Tensor-Train [26] est envisagĂ©e pour lutter contre la malĂ©diction de la dimensionnalitĂ©

    From zero to infinity: Minimum to maximum diversity of the planet by spatio-parametric Rao's quadratic entropy

    Get PDF
    Aim: The majority of work done to gather information on the Earth's biodiversity has been carried out using in-situ data, with known issues related to epistemology (e.g., species determination and taxonomy), spatial uncertainty, logistics (time and costs), among others. An alternative way to gather information about spatial ecosystem variability is the use of satellite remote sensing. It works as a powerful tool for attaining rapid and standardized information. Several metrics used to calculate remotely sensed diversity of ecosystems are based on Shannon’s information theory, namely on the differences in relative abundance of pixel reflectances in a certain area. Additional metrics like the Rao’s quadratic entropy allow the use of spectral distance beside abundance, but they are point descriptors of diversity, that is they can account only for a part of the whole diversity continuum. The aim of this paper is thus to generalize the Rao’s quadratic entropy by proposing its parameterization for the first time.
 Innovation: The parametric Rao’s quadratic entropy, coded in R, (a) allows the representation of the whole continuum of potential diversity indices in one formula, and (b) starting from the Rao’s quadratic entropy, allows the explicit use of distances among pixel reflectance values, together with relative abundances.
 Main conclusions: The proposed unifying measure is an integration between abundance- and distance-based algorithms to map the continuum of diversity given a satellite image at any spatial scale. Being part of the rasterdiv R package, the proposed method is expected to ensure high robustness and reproducibility

    AlgÚbre linéaire numérique et analyse de données en grande dimensions utilisant le format tenseur

    No full text
    This work aims to establish which theoretical properties of classical linear algebra techniques developed in two different contexts, that are numerical linear algebra and data analysis, are saved and which are lost, once they are extended to tensors through tensor compression algorithms. Moreover, this manuscript aims to highlight the benefits and the flaws of a tensor approach compared to its classical matrix counterpart in the two considered frameworks paying particular attention to the computational aspects.In the numerical linear algebra part, we study experimentally the rounding error effects for an iterative solver and several orthogonalization kernels, when they are extended to the tensor framework through the Tensor Train (TT) formalism. In all the considered algorithms, we introduce additional rounding steps, through the TT-rounding algorithm to face memory constraints, always crucial when dealing with tensors. Our experiments suggest that for these algorithms the classical bounds based on rounding error analysis hold, replacing the unit round-off of the finite precision arithmetic with the precision of the TT-rounding algorithm.The considered iterative solver is Generalised Minimal RESidual (GMRES). We compare our version of TT-GMRES with the previous realization, showing numerically its major robustness. Moreover, we address the problem of solving simultaneously through TT-GMRES many linear systems in TT-format and establishing bounds that guarantee the numerical quality of the individual extracted solutions.The classical orthogonalization schemes generalized to tensors are CGS, CGS2, MGS, MGS2, Householder, and Gram. To complete their study, we study how they affect the performance of the subspace iteration eigensolver extended to tensors through the TT-format.In the data analysis part, we investigate two data analysis techniques, one meant for categorical variables data and one for climate data, generalized to tensors through the Tucker format, highlighting the benefits and the flaws of this choice compared to the corresponding matrix approach.A well-known tool for visualizing and interpreting categorical two-variable tables is Correspondence Analysis (CA). We study geometrically the generalization of CA to multiway tables through the Tucker tensor decomposition technique, contributing to the understanding of the MultiWay Correspondance Analysis (MWCA). The theoretical results are complemented by examples of MWCA applied to real-life datasets. In particular, we perform the MWCA on the original ecology dataset made available in the Malabar project.For climate data, we consider the Empirical Orthogonal Function (EOF) analysis. In particular, we show how to retrieve the final EOF outcome relying on the Tucker compressed format. This approach may be computationally beneficial if the data are made available directly in Tucker format. For completeness, we study numerically the effect of the data approximation through the Tucker model on the final EOF outcome.L'objectif de ce travail est d'Ă©tablir quelles propriĂ©tĂ©s thĂ©oriques des techniques d'algĂšbre linĂ©aire classique dĂ©veloppĂ©es dans deux contextes diffĂ©rents, que sont l'algĂšbre linĂ©aire numĂ©rique et l'analyse de donnĂ©es, sont prĂ©servĂ©es et lesquelles sont perdues, une fois qu'elles sont Ă©tendues aux tenseurs grĂące Ă  des algorithmes de compression tensorielle de rang faible. En outre, ce manuscrit vise Ă  mettre en Ă©vidence les avantages et les inconvĂ©nients d'une approche tensorielle par rapport Ă  son homologue matricielle classique dans les deux domaines considĂ©rĂ©s, en accordant une attention particuliĂšre aux aspects computationels.Dans la partie d'algĂšbre linĂ©aire numĂ©rique, nous Ă©tudions expĂ©rimentalement les effets des erreurs d'arrondi sur un solveur itĂ©ratif et plusieurs mĂ©thodes d'orthogonalisation, lorsqu'ils sont Ă©tendus aux tenseurs par le formalisme du Train Tensoriel (TT). Dans tous les algorithmes considĂ©rĂ©s, nous introduisons des Ă©tapes d'arrondi supplĂ©mentaires, avec l'algorithme de compression TT-rounding, pour faire face aux contraintes de mĂ©moire, toujours cruciales lorsqu'on traite des tenseurs. Nos tests suggĂšrent que pour ces algorithmes, les limites classiques dues Ă  la propagation des erreurs d'arrondi restent valables, en remplaçant la prĂ©cision de l'arithmĂ©tique par celle de l'algorithme TT-rounding.Le solveur itĂ©ratif considĂ©rĂ© est le Generalised Minimal RESidual (GMRES). Nous comparons notre version TT-GMRES avec une rĂ©alisation prĂ©cĂ©dente, en montrant numĂ©riquement sa grande robustesse. De plus, nous abordons le problĂšme de la rĂ©solution simultanĂ©e par TT-GMRES de nombreux systĂšmes linĂ©aires au format TT et Ă©tablissons des bornes qui garantissent la qualitĂ© numĂ©rique de la solution individuelle extraite.Les schĂ©mas classiques d'orthogonalisation gĂ©nĂ©ralisĂ©s aux tenseurs sont CGS, CGS2, MGS, MGS2, Householder et Gram. Pour complĂ©ter leur Ă©tude, nous Ă©tudions comment ils affectent les performances du solveur de problĂšmes aux valeurs propres basĂ© sur des itĂ©rations de sous-espaces Ă©tendu aux tenseurs avec le format TT.Dans la partie analyse de donnĂ©es, nous Ă©tudions deux techniques d'analyse, l'une destinĂ©e aux donnĂ©es de variables catĂ©gorielles et l'autre aux donnĂ©es climatiques, gĂ©nĂ©ralisĂ©es aux tenseurs par le biais du format Tucker, en soulignant les avantages et les inconvĂ©nients de ce choix par rapport Ă  l'approche matricielle correspondante.L'Analyse des Correspondances (AC) est un outil bien connu pour visualiser et interprĂ©ter des tableaux catĂ©goriels Ă  deux variables. Nous Ă©tudions gĂ©omĂ©triquement la gĂ©nĂ©ralisation de l'AC aux tableaux multivoies par la technique de dĂ©composition tensorielle de Tucker, contribuant ainsi Ă  la comprĂ©hension de l'Analyse des Correspondances MultiVoies (ACMV). Les rĂ©sultats thĂ©oriques sont complĂ©tĂ©s par des exemples de ACMV appliquĂ©s Ă  des ensembles de donnĂ©es. En particulier, nous rĂ©alisons l'ACMV sur le jeu de donnĂ©es Ă©cologique original mis Ă  notre disposition dans le cadre du projet Malabar.Pour les donnĂ©es climatiques, nous considĂ©rons l'analyse de la Fonction Orthogonale Empirique (FOE). En particulier, nous montrons comment rĂ©cupĂ©rer le rĂ©sultat final de l'FOE en s'appuyant sur le format compressĂ© de Tucker. Cette approche peut ĂȘtre avantageuse sur le plan du calcul si les donnĂ©es sont disponibles directement au format Tucker. Pour ĂȘtre complet, nous Ă©tudions numĂ©riquement l'effet de l'approximation des donnĂ©es par le modĂšle de Tucker sur le rĂ©sultat FOE final

    Numerical linear algebra and data analysis in large dimensions using tensor format

    No full text
    L'objectif de ce travail est d'Ă©tablir quelles propriĂ©tĂ©s thĂ©oriques des techniques d'algĂšbre linĂ©aire classique dĂ©veloppĂ©es dans deux contextes diffĂ©rents, que sont l'algĂšbre linĂ©aire numĂ©rique et l'analyse de donnĂ©es, sont prĂ©servĂ©es et lesquelles sont perdues, une fois qu'elles sont Ă©tendues aux tenseurs grĂące Ă  des algorithmes de compression tensorielle de rang faible. En outre, ce manuscrit vise Ă  mettre en Ă©vidence les avantages et les inconvĂ©nients d'une approche tensorielle par rapport Ă  son homologue matricielle classique dans les deux domaines considĂ©rĂ©s, en accordant une attention particuliĂšre aux aspects computationels.Dans la partie d'algĂšbre linĂ©aire numĂ©rique, nous Ă©tudions expĂ©rimentalement les effets des erreurs d'arrondi sur un solveur itĂ©ratif et plusieurs mĂ©thodes d'orthogonalisation, lorsqu'ils sont Ă©tendus aux tenseurs par le formalisme du Train Tensoriel (TT). Dans tous les algorithmes considĂ©rĂ©s, nous introduisons des Ă©tapes d'arrondi supplĂ©mentaires, avec l'algorithme de compression TT-rounding, pour faire face aux contraintes de mĂ©moire, toujours cruciales lorsqu'on traite des tenseurs. Nos tests suggĂšrent que pour ces algorithmes, les limites classiques dues Ă  la propagation des erreurs d'arrondi restent valables, en remplaçant la prĂ©cision de l'arithmĂ©tique par celle de l'algorithme TT-rounding.Le solveur itĂ©ratif considĂ©rĂ© est le Generalised Minimal RESidual (GMRES). Nous comparons notre version TT-GMRES avec une rĂ©alisation prĂ©cĂ©dente, en montrant numĂ©riquement sa grande robustesse. De plus, nous abordons le problĂšme de la rĂ©solution simultanĂ©e par TT-GMRES de nombreux systĂšmes linĂ©aires au format TT et Ă©tablissons des bornes qui garantissent la qualitĂ© numĂ©rique de la solution individuelle extraite.Les schĂ©mas classiques d'orthogonalisation gĂ©nĂ©ralisĂ©s aux tenseurs sont CGS, CGS2, MGS, MGS2, Householder et Gram. Pour complĂ©ter leur Ă©tude, nous Ă©tudions comment ils affectent les performances du solveur de problĂšmes aux valeurs propres basĂ© sur des itĂ©rations de sous-espaces Ă©tendu aux tenseurs avec le format TT.Dans la partie analyse de donnĂ©es, nous Ă©tudions deux techniques d'analyse, l'une destinĂ©e aux donnĂ©es de variables catĂ©gorielles et l'autre aux donnĂ©es climatiques, gĂ©nĂ©ralisĂ©es aux tenseurs par le biais du format Tucker, en soulignant les avantages et les inconvĂ©nients de ce choix par rapport Ă  l'approche matricielle correspondante.L'Analyse des Correspondances (AC) est un outil bien connu pour visualiser et interprĂ©ter des tableaux catĂ©goriels Ă  deux variables. Nous Ă©tudions gĂ©omĂ©triquement la gĂ©nĂ©ralisation de l'AC aux tableaux multivoies par la technique de dĂ©composition tensorielle de Tucker, contribuant ainsi Ă  la comprĂ©hension de l'Analyse des Correspondances MultiVoies (ACMV). Les rĂ©sultats thĂ©oriques sont complĂ©tĂ©s par des exemples de ACMV appliquĂ©s Ă  des ensembles de donnĂ©es. En particulier, nous rĂ©alisons l'ACMV sur le jeu de donnĂ©es Ă©cologique original mis Ă  notre disposition dans le cadre du projet Malabar.Pour les donnĂ©es climatiques, nous considĂ©rons l'analyse de la Fonction Orthogonale Empirique (FOE). En particulier, nous montrons comment rĂ©cupĂ©rer le rĂ©sultat final de l'FOE en s'appuyant sur le format compressĂ© de Tucker. Cette approche peut ĂȘtre avantageuse sur le plan du calcul si les donnĂ©es sont disponibles directement au format Tucker. Pour ĂȘtre complet, nous Ă©tudions numĂ©riquement l'effet de l'approximation des donnĂ©es par le modĂšle de Tucker sur le rĂ©sultat FOE final.This work aims to establish which theoretical properties of classical linear algebra techniques developed in two different contexts, that are numerical linear algebra and data analysis, are saved and which are lost, once they are extended to tensors through tensor compression algorithms. Moreover, this manuscript aims to highlight the benefits and the flaws of a tensor approach compared to its classical matrix counterpart in the two considered frameworks paying particular attention to the computational aspects.In the numerical linear algebra part, we study experimentally the rounding error effects for an iterative solver and several orthogonalization kernels, when they are extended to the tensor framework through the Tensor Train (TT) formalism. In all the considered algorithms, we introduce additional rounding steps, through the TT-rounding algorithm to face memory constraints, always crucial when dealing with tensors. Our experiments suggest that for these algorithms the classical bounds based on rounding error analysis hold, replacing the unit round-off of the finite precision arithmetic with the precision of the TT-rounding algorithm.The considered iterative solver is Generalised Minimal RESidual (GMRES). We compare our version of TT-GMRES with the previous realization, showing numerically its major robustness. Moreover, we address the problem of solving simultaneously through TT-GMRES many linear systems in TT-format and establishing bounds that guarantee the numerical quality of the individual extracted solutions.The classical orthogonalization schemes generalized to tensors are CGS, CGS2, MGS, MGS2, Householder, and Gram. To complete their study, we study how they affect the performance of the subspace iteration eigensolver extended to tensors through the TT-format.In the data analysis part, we investigate two data analysis techniques, one meant for categorical variables data and one for climate data, generalized to tensors through the Tucker format, highlighting the benefits and the flaws of this choice compared to the corresponding matrix approach.A well-known tool for visualizing and interpreting categorical two-variable tables is Correspondence Analysis (CA). We study geometrically the generalization of CA to multiway tables through the Tucker tensor decomposition technique, contributing to the understanding of the MultiWay Correspondance Analysis (MWCA). The theoretical results are complemented by examples of MWCA applied to real-life datasets. In particular, we perform the MWCA on the original ecology dataset made available in the Malabar project.For climate data, we consider the Empirical Orthogonal Function (EOF) analysis. In particular, we show how to retrieve the final EOF outcome relying on the Tucker compressed format. This approach may be computationally beneficial if the data are made available directly in Tucker format. For completeness, we study numerically the effect of the data approximation through the Tucker model on the final EOF outcome

    AlgÚbre linéaire numérique et analyse de données en grande dimensions utilisant le format tenseur

    No full text
    This work aims to establish which theoretical properties of classical linear algebra techniques developed in two different contexts, that are numerical linear algebra and data analysis, are saved and which are lost, once they are extended to tensors through tensor compression algorithms. Moreover, this manuscript aims to highlight the benefits and the flaws of a tensor approach compared to its classical matrix counterpart in the two considered frameworks paying particular attention to the computational aspects.In the numerical linear algebra part, we study experimentally the rounding error effects for an iterative solver and several orthogonalization kernels, when they are extended to the tensor framework through the Tensor Train (TT) formalism. In all the considered algorithms, we introduce additional rounding steps, through the TT-rounding algorithm to face memory constraints, always crucial when dealing with tensors. Our experiments suggest that for these algorithms the classical bounds based on rounding error analysis hold, replacing the unit round-off of the finite precision arithmetic with the precision of the TT-rounding algorithm.The considered iterative solver is Generalised Minimal RESidual (GMRES). We compare our version of TT-GMRES with the previous realization, showing numerically its major robustness. Moreover, we address the problem of solving simultaneously through TT-GMRES many linear systems in TT-format and establishing bounds that guarantee the numerical quality of the individual extracted solutions.The classical orthogonalization schemes generalized to tensors are CGS, CGS2, MGS, MGS2, Householder, and Gram. To complete their study, we study how they affect the performance of the subspace iteration eigensolver extended to tensors through the TT-format.In the data analysis part, we investigate two data analysis techniques, one meant for categorical variables data and one for climate data, generalized to tensors through the Tucker format, highlighting the benefits and the flaws of this choice compared to the corresponding matrix approach.A well-known tool for visualizing and interpreting categorical two-variable tables is Correspondence Analysis (CA). We study geometrically the generalization of CA to multiway tables through the Tucker tensor decomposition technique, contributing to the understanding of the MultiWay Correspondance Analysis (MWCA). The theoretical results are complemented by examples of MWCA applied to real-life datasets. In particular, we perform the MWCA on the original ecology dataset made available in the Malabar project.For climate data, we consider the Empirical Orthogonal Function (EOF) analysis. In particular, we show how to retrieve the final EOF outcome relying on the Tucker compressed format. This approach may be computationally beneficial if the data are made available directly in Tucker format. For completeness, we study numerically the effect of the data approximation through the Tucker model on the final EOF outcome.L'objectif de ce travail est d'Ă©tablir quelles propriĂ©tĂ©s thĂ©oriques des techniques d'algĂšbre linĂ©aire classique dĂ©veloppĂ©es dans deux contextes diffĂ©rents, que sont l'algĂšbre linĂ©aire numĂ©rique et l'analyse de donnĂ©es, sont prĂ©servĂ©es et lesquelles sont perdues, une fois qu'elles sont Ă©tendues aux tenseurs grĂące Ă  des algorithmes de compression tensorielle de rang faible. En outre, ce manuscrit vise Ă  mettre en Ă©vidence les avantages et les inconvĂ©nients d'une approche tensorielle par rapport Ă  son homologue matricielle classique dans les deux domaines considĂ©rĂ©s, en accordant une attention particuliĂšre aux aspects computationels.Dans la partie d'algĂšbre linĂ©aire numĂ©rique, nous Ă©tudions expĂ©rimentalement les effets des erreurs d'arrondi sur un solveur itĂ©ratif et plusieurs mĂ©thodes d'orthogonalisation, lorsqu'ils sont Ă©tendus aux tenseurs par le formalisme du Train Tensoriel (TT). Dans tous les algorithmes considĂ©rĂ©s, nous introduisons des Ă©tapes d'arrondi supplĂ©mentaires, avec l'algorithme de compression TT-rounding, pour faire face aux contraintes de mĂ©moire, toujours cruciales lorsqu'on traite des tenseurs. Nos tests suggĂšrent que pour ces algorithmes, les limites classiques dues Ă  la propagation des erreurs d'arrondi restent valables, en remplaçant la prĂ©cision de l'arithmĂ©tique par celle de l'algorithme TT-rounding.Le solveur itĂ©ratif considĂ©rĂ© est le Generalised Minimal RESidual (GMRES). Nous comparons notre version TT-GMRES avec une rĂ©alisation prĂ©cĂ©dente, en montrant numĂ©riquement sa grande robustesse. De plus, nous abordons le problĂšme de la rĂ©solution simultanĂ©e par TT-GMRES de nombreux systĂšmes linĂ©aires au format TT et Ă©tablissons des bornes qui garantissent la qualitĂ© numĂ©rique de la solution individuelle extraite.Les schĂ©mas classiques d'orthogonalisation gĂ©nĂ©ralisĂ©s aux tenseurs sont CGS, CGS2, MGS, MGS2, Householder et Gram. Pour complĂ©ter leur Ă©tude, nous Ă©tudions comment ils affectent les performances du solveur de problĂšmes aux valeurs propres basĂ© sur des itĂ©rations de sous-espaces Ă©tendu aux tenseurs avec le format TT.Dans la partie analyse de donnĂ©es, nous Ă©tudions deux techniques d'analyse, l'une destinĂ©e aux donnĂ©es de variables catĂ©gorielles et l'autre aux donnĂ©es climatiques, gĂ©nĂ©ralisĂ©es aux tenseurs par le biais du format Tucker, en soulignant les avantages et les inconvĂ©nients de ce choix par rapport Ă  l'approche matricielle correspondante.L'Analyse des Correspondances (AC) est un outil bien connu pour visualiser et interprĂ©ter des tableaux catĂ©goriels Ă  deux variables. Nous Ă©tudions gĂ©omĂ©triquement la gĂ©nĂ©ralisation de l'AC aux tableaux multivoies par la technique de dĂ©composition tensorielle de Tucker, contribuant ainsi Ă  la comprĂ©hension de l'Analyse des Correspondances MultiVoies (ACMV). Les rĂ©sultats thĂ©oriques sont complĂ©tĂ©s par des exemples de ACMV appliquĂ©s Ă  des ensembles de donnĂ©es. En particulier, nous rĂ©alisons l'ACMV sur le jeu de donnĂ©es Ă©cologique original mis Ă  notre disposition dans le cadre du projet Malabar.Pour les donnĂ©es climatiques, nous considĂ©rons l'analyse de la Fonction Orthogonale Empirique (FOE). En particulier, nous montrons comment rĂ©cupĂ©rer le rĂ©sultat final de l'FOE en s'appuyant sur le format compressĂ© de Tucker. Cette approche peut ĂȘtre avantageuse sur le plan du calcul si les donnĂ©es sont disponibles directement au format Tucker. Pour ĂȘtre complet, nous Ă©tudions numĂ©riquement l'effet de l'approximation des donnĂ©es par le modĂšle de Tucker sur le rĂ©sultat FOE final
    corecore